robert kopala
Možemo li regulirati umjetnu inteligenciju? Kopal: "Ne da li možemo - apsolutno moramo"
O opasnostima i odgovornostima koje nosi rapidni razvoj umjetne inteligencije, te može li se uopće regulirati UI na globalnoj razini, neke su od tema o kojima je u Novom danu naš Hrvoje Krešić razgovarao s Robertom Kopalom, predavačem na Sveučilištu Algebra Bernays i Veleučilištu Effectus
Roberta Kopala smo upitali imamo li vremena, možemo li uopće razgovarati, odnosno, možemo li uopće zamisliti postizanje nekog globalnog konsenzusa o tome što i kako s umjetnom inteligencijom i kako ograničiti neke njezine krajnje negativne učinke?
Odgovorio je kako vremena imamo, te da trebamo nešto učiniti po tom pitanju:
"Osobno dugo i javno zagovaram odgovarajuću UN-ovu rezoluciju, kao što zagovaram osnivanje po uzoru na tijelo koje je odgovorno za atomsku energiju, zato što je tehnologija umjetne inteligencije dual-use technology, i mogli bismo povući zilijun paralela između atomske energije i umjetne inteligencije. S druge strane, odlična je stvar da je Europa donijela AI Act, jako veliki sam zagovornik toga, i znam da postoje kritičari koji kažu da će druge države iskoristiti deregulaciju u svojim državama nauštrb regulacije Europe. S druge strane, siguran sam da će to postati zlatni standard, isto kao što je postao GDPR. Dakle, kratki odgovor: ne da li možemo - apsolutno moramo."

Koje su prepreke koje u ovom trenutku možemo locirati, detektirati, kako bi se takav dogovor potencijalno mogao postići?
"Trenutno postoji jedan fear of missing out sindrom i arms race u umjetnoj inteligenciji, radi čega države zapravo -, ako si ti, onda ću i ja, ako sam ja, onda ćeš i ti. Sad imamo jednu globalnu utrku. Ono što je zanimljivo, da je prije neki dan izašla informacija, javno objavljena, da Kina odjedanput zagovara globalni dogovor, governance, regulaciju. Jako zanimljiv incentive. To treba uzeti u obzir."
"S druge strane, ono što možemo napraviti je zapravo razgovarati otvoreno o svemu bez da unaprijed donesemo zaključak. Dat ću vam primjer. Mustafa Suleiman, koji je šef AI-a Microsofta, sam kaže da je apsolutno nužno regulirati umjetnu inteligenciju, govori ovako: četiri su opasnosti ključne. Broj jedan, da kada umjetna inteligencija uspijeva sama sebe unaprijediti, kodirati. Broj dva, kada ona počne određivati samostalno ciljeve. Broj tri, kada postane autonomna. I broj četiri, kada sama nalazi resurse da bi sve to napravila. Mi zapravo već jesmo u toj fazi. I on upozorava na taj trenutak, kad se to dogodi, sam koristi termin, da ćemo zapravo trebati vojsku da bismo to zaustavili."
Potreba za integracijom STEM i humanističkih znanosti u obrazovanju i društvu
Kopal naglašava imperativ humanizma u razvoju tehnologija, objašnjavajući kako je tehnologija ovdje da služi društvu: "Kao netko tko je sveučilišni profesor, javno već, pa sigurno 10 godina, zagovaram da na svim STEM fakultetima izborni predmeti moraju biti humanističko-društveni. Na svim društveno-humanističkim fakultetima izborni predmeti bi trebali biti STEM. Niti jedan problem danas nije samo STEM, samo humanizam, samo društveni. Zapravo su ti problemi multidisciplinarno i multidimenzionalno povezani, i tako trebamo gledati. Naglasit ću još jednu stvar o kojoj se ne priča dovoljno - više puta je i sam Papa upozoravao na opasnosti umjetne inteligencije i da zapravo, as a humanist, trebali bismo početi razgovarati o svim aspektima. I ne, apsolutno nije normalno da tehnologija određuje društvu kako će nešto raditi, društvo treba odrediti tehnologiji kako će nešto raditi."
Podsjeća li vas ovaj trenutak u kojem se nalazimo na onaj trenutak nakon Drugog svjetskog rata, kada, nakon što shvate u Alamu što su napravili s atomskom bombom, nakon što vide što se dogodilo u Hirošimi i nakon što im je jasno da će Sovjetski Savez učiniti isto, isti oni fizičari koji su razvijali atomsku bombu dođu i kažu da nama treba globalni konsenzus i mi želimo globalno tijelo koje će upravljati, što je na kraju i izrodilo Međunarodnu agenciju za atomsku energiju?
"Za konsenzus u vezi globalnog razumijevanja i postizanja nekog governancea, sigurno je Europa na prvom mjestu bi bila in favorem, u smislu da se nešto učini po tom pitanju. Apsolutno ima sličnosti s Oppenheimer momentom, apsolutno. Tim više što postoje neki radovi i neki uradci prije umjetne inteligencije koji su bili dosta nezgodni. Na primjer, grupa kanadskih znanstvenika je javno objavila rad kojim su sintetizirali virus velikih boginja koji se seli na konje, za životinje, da bi dokazali za 100. 000 dolara i to je javno objavljeno."
Gdje je granica?
Kopal naglašava: "Ako mi kao znanstvenici javno pričamo o temama i još to promoviramo u smislu dosega znanosti, postavlja se pitanje - gdje je granica znanosti, a gdje je granica gdje bi znanost trebala povući kočnicu i reći - ljudi moji, ovo što činimo ne ide u korist čovječanstva. Ja mislim da bi znanost trebala zapravo imati na umu sljedeće - nema granica u propitivanjima i trebamo biti slobodni u propitivanjima, ali moramo imati na umu utjecaj na čovječanstvo."
Kakvo je tvoje mišljenje o ovome?
Pridruži se raspravi ili pročitaj komentare